Locutora: Voces en red, un podcast de NIC Argentina
Moderadora: La idea de este formato es discutir las temáticas de agenda que nosotros, que somos parte de la comunidad de Internet, conocemos como de Gobernanza de Internet.
Hoy estaremos hablando sobre reconocimiento facial.
Estoy junto a Carolina Martínez Elebi y Juan Martín Heguiabehere. Así que bueno, para empezar y comenzar un poco más la idea del Podcast de hoy, esto de reconocimiento facial que estamos presentando: hace algunos días, será unas semanas, dos, tres semanas atrás, cuatro, un poquito menos, apareció una aplicación llamada FaceApp. Se viralizó muchísimo por todas las plataformas, me imagino que todos nosotros, en nuestros muros, en nuestros feed de Instagram y distintas aplicaciones fueron apareciendo fotos de distintos, de nosotros mismos o de nuestros amigos, de más chicos, de más grandes y eso bueno, fue viralizándose por todos lados, ¿no?
¿Qué pasa con esas fotos? Esos rostros de las personas, ¿a dónde van? ¿Están en una base de datos? ¿Queda centralizado en algún lado? ¿Qué opinión tienen al respecto de jugar con esta aplicación y que estas fotos circulen en las plataformas? ¿Cómo lo ven?
Juan: Sí, bueno, en principio la aplicación recolecta fotos de personas y puede enviarlas afuera del país. El principal problema quizás no sea la recolección de fotos porque finalmente estamos dejando una huella digital enorme en Internet hoy día. Entonces, prácticamente, si lo que querían era usar la foto para entrenar un algoritmo de reconocimiento facial, esto más que nada les da comodidad, no es que no pueden recibir la información de otra manera.
Locutora: Juan Martín es Doctor en Ciencias de la Computación. Dirige el programa de seguridad en TIC de la Fundación Sadosky y es profesor adjunto de la Facultad de Ingeniería de la UBA.
Juan: Lo que sí preocupa es que es toda información, tanto las caras de las personas, como sus redes de contactos, como toda la información que puede sacar del teléfono la aplicación, se envía fuera del país donde en realidad no tenemos control. Acá hay una legislación sobre las bases de datos con información personal, pero esa legislación no alcanza a la gente que junta esos datos en otros países.
Carolina: Bueno sobre eso, a ver, primero voy a hacer una aclaración. Esta aplicación en sí, FaceApp, que fue por la cual se viralizó la problemática del reconocimiento facial, no es la única.
Locutora: Carolina es Licenciada en Comunicación de la Universidad de Buenos Aires. Es Coordinadora de Proyectos en la Fundación Vía Libre. Desde 2017, administra el canal de Telegram Derechos Humanos y Tecno - @ddhhytecno en el que divulga información sobre la temática.
Carolina: Creo que la preocupación empezó como, o por lo menos explotó un poco, cuando hubo sospechas de que esto iba a servidores rusos, y hay como una mística con lo ruso que parece muy divertida, a veces, como que parecieran que son los malos ¿no? los rusos, los chinos, es como que son los malos del mundo. Pero en realidad, imágenes de nuestro rostro, cualquier persona que viene utilizando Facebook desde que se creó y empezaron con el desarrollo de, por ejemplo, identificar amigos en fotos ¿no?, es decir bueno, etiqueta acá a quienes están. Con ese etiquetar empieza a haber un reconocimiento, digo, quizás un poco más precario que el actual que ya está mucho más desarrollado. Pero, al principio, era esto mismo, ¿no? Empezar a identificar o asociar una imagen de un rostro con el nombre de un usuario. Bueno, cuando lo empezaron a repetir, esta idea del entrenamiento de los algoritmos, cuando se repiten muchas veces el etiquetado de una persona en determinada foto, en algún momento, mismo Facebook empezaba a sugerir ¿Esta es tal? Y sí, ya lo reconoció. Eso es, cuando uno dice entrenar algoritmos para reconocimiento facial, es que en algún momento te empiezan a simplificar ¡ah! ya no lo tengo que etiquetar más porque ya Facebook sabe quién es. Y no importa si está en una imagen oscura dentro de una fiesta con poca iluminación, o si está de costado porque ya empezó a reconocerlo. Digo, para sacarle un poco también de temor solo a esta aplicación como si fuera la única que lo hace. Cualquier filtro, que cualquier persona utiliza en aplicaciones como Instagram, como Snapchat, también formaban parte de ese entrenamiento de un algoritmo para hacer un reconocimiento facial. Si esa aplicación sabe dónde poner las orejitas del perrito, dónde la naricita, es porque entiende que ahí hay una nariz y ahí hay un lugar de la cabeza dónde podrían ubicarse orejas. Por ende, todo este entrenamiento ya se viene haciendo desde hace años. Por eso digo que me parece que el temor que surgió con FaceApp fue solo porque el nombre y apellido del que lo creó, es ruso. Y de hecho, él mismo para protegerse tuvo que decir no, pero los datos no van a Rusia, porque los servidores no están en Rusia, y por lo menos en las entrevistas que yo logré, en su momento, no de acá sino de medios extranjeros que lograron entrevistarlo, pobre, digo “pobre” entre muchísimas comillas, pero salió como a tener que justificarse no perdón, tengo nombre ruso, pero no, en realidad están en Estados Unidos, como si eso fuera mejor. Y ahí vamos otra vez con el tema de los servidores: si no están acá, en Argentina, esos datos y datos, desde los datos biométricos que es el rostro hasta el nombre de usuario, el mail o si está asociado a un número telefónico, son todos datos de los usuarios que están alojados en servidores de otros países. La ley que tenemos nosotros acá que actualmente está vigente, que es la Ley de Protección de Datos Personales, no rige sobre las empresas que alojan esos datos en servidores en otros países. En sí, lo que hay, y esto hago la salvedad, es que nuestra ley está homologada con la Ley Europea que ahora tiene que atravesar una nueva homologación por la actualización que se hizo en 2016 en Europa, con el Reglamento General de Protección de Datos que, para estar otra vez homologados con un mismo nivel de estándar de protección, vamos a tener que actualizar nuestra ley. Pero hay cierto estándar que lo que hace es: se supone que nuestros datos están protegidos con un nivel que en otros países, con los cuales compartimos datos, deberían tener un mínimo de protección o de estándar de protección similar. Estados Unidos no es ese caso.
Moderadora: Juan Martín ¿querés agregar algo al respecto?
Juan: Sí, hay muchas aplicaciones que hacen esto. No es necesario que sean aplicaciones que te sacan fotos. Las que sacan fotos, efectivamente, suben información biométrica pero tu información de contacto, tu nombre, tu dirección de correo. Hay aplicaciones que son internas, que se llevan tu información, es decir hay que fijarse muy bien en las aplicaciones que uno instala en su teléfono porque incluso hay aplicaciones que son troyanos que te roban la información de la cuenta del banco. Va mucho más allá de si alguien se queda con tu foto para relacionarla con tu nombre. La situación de seguridad en teléfonos era el salvaje oeste hace pocos años y ahora está mejor pero no está tanto mejor.
Carolina: Aparte, creo que en el caso este también se hizo más evidente el hecho de que, por pertenecer y hacer algo divertido, porque bueno, para muchos grupos de amigos o familiares, o de amigues…
Moderadora: el desafío ¿no?
Carolina: Hay, como esta cosa de bueno, estamos jugando, es entretenimiento y detrás del entretenimiento bueno, me lo descargo, y ahí yo concuerdo con lo que dice Juan en: ni siquiera el riesgo mayor es solo el tema de la foto en sí, sino el hecho de que cualquier aplicación que uno descarga o cualquier sistema que uno utiliza, en general, y sin culpar al común de las personas, nadie puede tomarse el trabajo de leer los términos de uso ni hablar de las políticas de privacidad de cada aplicación que son textos larguísimos y que, en el total de las veces, se tienen que aprobar a condición de usar o no usar la aplicación. Uno sino se queda afuera. Si uno quiere pertenecer a una aplicación como Whatsapp, ni siquiera estoy hablando de una red social, sino un servicio de mensajería que uno utiliza para estar en contacto incluso en ámbitos de trabajo en donde el grupo, muchas veces, se hacen el grupo de compañeros de trabajo hasta con un jefe, en Whatsapp, uno no puede decir ah yo no uso Whatsapp. Te quedás afuera de algo donde vos tenés una responsabilidad, por ende, estás como medio forzado. Y si vos leés las políticas de privacidad de la aplicación y decís yo no quiero y… te quedás afuera. Es un contrato de adhesión que uno no tiene opción de elegir. Yo me tome el trabajo de revisar un poco las políticas de privacidad de FaceApp para ver efectivamente qué datos usaba y, si uno lo lee, parece como uy es terrible no está muy lejos de lo que uno le da aceptar a cualquier otra aplicación sobre todo las que te piden acceso a la cámara, ¿no?, por ejemplo. Pero, tomé nota, si puedo lo leo lo más rápido posible, pero básicamente en una parte dice Usted otorga a FaceApp una licencia sublicenciable, transferible, perpetua, irrevocable, no exclusiva, libre de regalías, mundial, totalmente paga y totalmente autorizada, para usar, reproducir, modificar, adaptar, publicar, traducir, crear trabajos derivados, distribuir, realizar públicamente y mostrar su contenido de usuario y cualquier nombre, nombre de usuario o imagen proporcionada en relación con su contenido de usuario en todos los formatos de medios y canales conocidos ahora o desarrollados posteriormente sin compensación para usted. Así, cierra textual, la parte de los términos de uso de la aplicación. Y esto que parece tan como terrible es lo que dice básicamente por default todas las aplicaciones que nos descargamos. Y ¿cuántos lo sabemos? Por eso digo también, a veces, uno por más que lo sepa medio que no podés decir que no a algunas cosas. Yo no descargue FaceApp y no lo usé, pero tengo Instagram que lo tengo cerrado con candadito con 10 personas, más que nada por eso: para ver las fotos de mi hermana, de mi cuñado, de una tía. Y sin embargo, hay veces que uno mira y decís pero, si yo les digo todo lo que pasa igual te dicen 'y bueno, pero yo la quiero usar'.
Moderadora: es como hay una aceptación a pesar de que, quizás uno en el mito sabe que hay un montón de cuestiones que tienen que ver con las autorizaciones: que vos estás entregando información súper sensible, pero esto que vos decías, ¿no?, del pertenecer y formar parte de un círculo social que consume estas redes sociales o estas plataformas, hace que aceptes. Puede haber una porción de la población que no conozca y parte de la población que sí conozca pero igualmente se entrega a ceder esa información, que quizás años atrás pasaba no, yo estos datos no los entrego u otras generaciones previas a nosotros decían esta información es muy sensible no lo voy a entregar y sin embargo con tal de pertenecer o jugar a poner fotos nuestras u otro tipo de información también sensible uno entra en el circuito ¿no?
Juan: Sí, antes había historias de Fausto y estas cosas que la gente le vendía el alma al diablo por poder y gloria y fortuna y ahora uno lo hace por subir fotos con nariz de gato. También está el tema en las redes sociales: uno participa en las redes sociales, ¿no sé si vieron Brexit?
Moderadora: ¿La película?
Juan: O Nada es privado… Sí, estas películas donde hablan de los perfiles psicológicos, se llaman. Participar en una red social es entregarle voluntariamente a una empresa de la que sabe así, más o menos cómo se va a comportar, todo un montón, de un caudal, de información sobre uno y su vida que después se puede usar en contra de uno y esta particular, Facebook, no estamos seguros de que no lo hace. Y Facebook, en última instancia es una empresa a la que se le puede ir y reclamar algo pero uno se baja aplicaciones de la web, baja aplicaciones del PlayStore y el desarrollador es cuchuflito y puede tener una política de privacidad todo lo restrictiva que ellos quieran pero no se lo podés ir a reclamar porque no sabés ni dónde está.
Moderadora: Exactamente.
Carolina: Sí, después quería también hacer como una reflexión de por más que estamos hablando de este tipo de cosas son todas aplicaciones que están desarrolladas en su mayoría por empresas privadas en las que a pesar de un montón de condicionamientos sociales, culturales, que medio nos presionan, ¿no? Casi como un mandato social de hoy y, tenés que estar no deja de ser una elección del usuario estar o no estar y qué datos dar o qué datos no dar. Por supuesto, hay algunos datos que uno no es consciente que se está dando, todo lo que son metadatos o cosas, digo, de rastreo que no sabés que uno los está dando. Y después están los datos voluntarios, lo que uno voluntariamente publica, lo que escribe, el acceso que se le da. Pero creo que el mayor peligro que uno podría tener en cuenta con lo que son las técnicas del reconocimiento facial y los posteriores usos que se hacen es esto que mencionaba Juan al principio de que el reconocimiento facial que hoy se hace desde aplicaciones divertidas hasta lo que se te ocurra, el posterior uso siempre es entrenar algoritmos para sistemas de vigilancia. Yo sé que es un tema delicado en sí porque estamos justo en un contexto internacional en donde de eso se habla mucho pero creo que el mayor problema de la captura de estos datos biométricos no es tanto por estas aplicaciones que no deja de ser algo voluntario del usuario cuando es algo, quizás, compulsivo. Por ejemplo, si un Estado pone una aplicación y en donde vos te tenés que registrar con tus datos biométricos, o ayer un amigo medio como riéndose me dice Perdí la contraseña de mi clave fiscal 3 y para recuperarla... ¿a vos también te pasó Juan?
Juan: Me pasó ayer.
Carolina: Bueno, a un amigo mío le paso ayer también y me reía porque digo justo te pasa y me dice tuve que poner mi cara, hacer morisquetas, todo para recuperarla e igual me pidió cambiar la contraseña.
Juan: Sí. Ayer mismo quise ingresar al sitio de AFIP y me decía que mi contraseña era errónea. Siendo un especialista en seguridad me agarró un ataque de paranoia inmediato porque dije me robaron la clave. Después, mas tarde, y especialmente ahora que hay historias coincidentes, empiezo a sospechar que AFIP está básicamente invalidando claves para que la gente las tenga que renovar. Uno lo puede renovar a través de la aplicación de teléfono Mi AFIP cosa que a mí me dio un poco de impresión porque no me gusta bajar aplicaciones a mi teléfono, y también me tuve que poner la cara, girar para un lado, girar para el otro, guiñar un ojo. Especialmente considerando que también está poniendo la AFIP un sistema de reconocimiento facial en el aeropuerto. Bueno, es una manera un poco descarada de recolectar información, me parece. La alternativa que no implicaba posiblemente dar los datos biométricos de uno, era someterse a un proceso burocrático que prometían que iba a ser muy doloroso. Entonces es como, básicamente, no había otra alternativa.
Moderadora: y un poco esto, cuáles son las motivaciones, que hay cuestiones de seguridad, el tema de las vinculadas al discurso de la inseguridad también ¿no? que a veces involucra en el medio de todas estas...
Carolina: Siempre. En algunos países es la inseguridad y en otros países es el terrorismo. Pero siempre hay algún motivo por el cual es importante poner cámaras y es importante saber todo lo que está haciendo cada uno de los ciudadanos, en donde se violan derechos como la presunción de inocencia. Digo, esta cuestión de poder circular por la vía pública. Pero, en realidad, lo que quería también mencionar cuando vos mencionaste el tema de las intencionalidades que puede haber detrás… uno puede hacer especulación sobre cuáles son las intenciones, porque yo no sé hasta qué punto, toda, porque sino es como una posición muy conspiranoica. Yo no digo que todas las empresas que hacen esto promueven la vigilancia pero no deja de ser un negocio. Creo que la intención de fondo siempre es tener plata, es generar dinero. Cada una de estas empresas encuentra distintas formas de cómo hacerlo. Hoy por hoy, el tema de los datos como un bien, que es un bien que se puede poner en el mercado y que tiene un valor, y vamos desde el valor... A ver, Facebook, todo el mundo lo sabe, al igual que Google se sostienen con un nivel de ingreso de publicidad enorme. Todo gracias a cómo ellos trabajan con esos datos, no es solo tienen datos sino cómo tratan los datos y de qué manera eso después le rinde a quienes tienen que poner dinero en publicidad. La publicidad dirigida, micro segmentada, con contenidos específicos para cada población, es algo que no podía hacerse hasta que no se tuvo este estudio, con este nivel de datos, de tratarlos de determinada manera. Cuando uno entiende que el dato tiene un valor, porque a veces dice bueno pero me preguntan ¿y qué hago? Ok. Sí. Todos estos datos los usan para esto ¿y yo qué hago entonces? Por lo menos tener conciencia porque, por eso digo, quizás algunas aplicaciones uno decide usarlas o no. No es una decisión tuya pero no te queda otra. Bueno por lo menos saber cuál es, digamos, qué es lo que vos estás poniendo ahí cuando uno dice nada es gratis, no son gratis las aplicaciones, vos estás dando un dato o varios datos que tienen un valor en el mercado concreto que se utilizan para vender, no sé, desde café hasta candidatos. Porque digo yo no estoy tan de acuerdo con el planteo que se hace de la manipulación tan directa. Está muy estudiado que tampoco es que somos híper permeables pero sí, es cierto que, por lo menos, la intención de llevar hacia determinado lugar a quizás personas un poco más vulnerables o más permeables a los discursos como tan de odio, y que se yo, sí se puede hacer gracias a esa cantidad de datos que se tienen de cada usuario.
Moderadora: Estudiar los perfiles.
Carolina: Esta cosa de poder hacer perfiles, por lo menos, de patrones de comportamiento, de reacciones o psicológicos. Se sabe que quizás si esta persona participa mucho más activamente después en otras comunidades, por fuera de las redes sociales, tiene después otra red, una red de contención política, de contención familiar, o lo que sea que te permite ver otras cosas. Hay muchas personas que son más permeables a lo que ven en las redes porque no tienen, después, tanto otro contacto, o tanta red de contención, por otro lado, entonces, bueno, sí leen estas noticias que le llegan y es un bombardeo constante y, entonces, reaccionan a partir de eso. Pero creo que son personas que ya estaban un poco convencidas de eso, a eso voy. No sé si es que te pueden manipular tanto. Este tema de los datos, de cómo se utilizan y, bueno, por algo existen también leyes de protección de datos, ¿no?
Moderadora: Ahí seguíamos, justo, con el tema que veníamos, que íbamos a hablar luego de todas estas cuestiones de los propósitos, que ¿quiénes son un poco los responsables de los usos y de los marcos regulatorios? ¿no? ¿Quiénes son los que están también interesados en estas bases de datos? Un poco esto es un negocio vos decías recién, el tema de los datos, hay sectores privados, públicos, de la sociedad civil, ¿qué opinión tiene ustedes o qué quieren aportar en relación a los interesados y a los marcos regulatorios de este tema?
Juan: Sí, bueno, es un poco triste. Las mentes más brillantes de nuestra generación están dedicadas a vender publicidad. Nada en Internet es gratis: o sea, no es gratis Facebook, no es gratis Gmail, no es gratis el sitio donde uno mira los comics de Gilbert, todo te muestra publicidad, todo te sigue. O sea vos vas a cualquier sitio web y tenés en promedio, por ejemplo, 23 trackers. Un tracker es una pequeña cosa que te va siguiendo por Internet que le manda información a una empresa en particular de a dónde va uno y qué mira en Internet. Es una sociedad de la vigilancia perfecta, perfecta como sociedad de la vigilancia.
Moderadora: Claro
Juan: Es decir, había un chiste hace mucho tiempo que, 1997, había dos perros hablando uno con el otro en frente a una pantalla y decían en Internet nadie sabe que sos un perro, pero ese chiste lo hicieron una re-versión hace, por ejemplo, 4 años que el perro dice eso y la computadora le contesta sos un cocker spaniel, pesas 32 kg y te gusta ir a visitar al vecino. (risas)
Moderadora: ¡Caramba!
Juan: No, es así. Estamos en la Internet siendo seguidos por gente. Hay un montón de cosas que uno puede hacer para mitigarlo. Hay programas como el Adblock, hay plugins como NoScript, hay un montón de cosas que uno puede hacer para evitar que lo estén vigilando todo el tiempo. Pero, de todas formas, también es un juego del gato y del ratón, hay contra-medidas contra eso y en muchos sitios que son gratis no les muestran el contenido si tiene Adblock.
Carolina: En términos de responsabilidad y de cómo esto se regula, soy de las que creen que siempre, como primer responsable de ser el garante de los derechos es el Estado. Después también, soy consciente y de hecho también hago la denuncia pública, no quizás denuncia a través del sistema de la justicia, pero sí por lo menos de hacer conocer en dónde también hay un abuso por parte de Estados. Porque el interés por los datos, como mencioné en un ejemplo hace un ratito, el hecho de querer saber y vigilar es tanto de los privados para tener publicidad, porque les sirve y de los Estados por una cuestión de monitoreo de la sociedad y de, muchas veces los datos si pueden servir para mejorar políticas públicas. Yo eso no lo voy a negar porque es cierto que hay determinados datos que pueden servir para saber en qué sector de la población hace falta más recursos para "x" cosa, o un nivel enorme de datos climatológicos te permiten saber en qué época conviene sembrar o cosechar, digo, el estudio de los suelos, si hay datos que realmente permiten mejorar políticas públicas. Después hay un mal uso de los datos, incluso en políticas públicas en donde puede llegar a tener efectos de profundización de desigualdades, de discriminación de sectores marginados, previamente, porque a veces se usan los datos quizás con las buenas intenciones de mejorar las condiciones de vida de determinado sector, sin darse cuenta de que se los está estigmatizando y que, entonces, se terminan reforzando sesgos, y por eso digo se pueden profundizar desigualdades o que pueden tener efectos discriminatorios.
No me pongo a dar ejemplos porque sé que hay poquito tiempo pero, cualquier persona que quiera saber me puede contactar y le paso material. Pero creo que la responsabilidad primera, primero está en la regulación. La regulación, en este caso, de todo lo que tiene que ver con reconocimiento facial, está vinculado a la protección de los datos. El reconocimiento facial es un dato biométrico. El dato biométrico, por ejemplo, en el Reglamento General de Protección de Datos, está considerado un dato sensible por lo que, al estar dentro de la categoría "datos sensibles", tiene una protección un poco más mayor, un poco más estricta que el dato meramente personal, que es nombre y apellido, en nuestro caso el DNI, o un domicilio. El dato sensible esta: los datos biométricos y los datos genéticos.
En nuestra ley vigente, que la tengo anotada porque nunca me acuerdo el número, pero es la 25.326 que es del año 2000, dentro de los datos sensibles, no estaban contemplados todavía por ser una ley de ese año, los datos biométricos y los datos genéticos. Y hay, dentro de los datos sensibles, datos, por ejemplo, como: religión, orientación sexual, o mismo orientación política e ideológica como un nivel de protección mayor que, por ejemplo, un ciudadano no tiene la obligación de otorgar ese dato en contra de su consentimiento. No tiene ninguna obligación de darlo a menos que haya algún requisito, alguna orden judicial por lo cual se tenga que saber, pero en general eso está puesto sobre la mesa que los datos sensibles no hay una obligación de darlos. En el proyecto de ley que se presentó el año pasado uno de los puntos que quizás a cierto sector nos interesaría poner en debate, es que se incluyan dentro de la categoría de "datos sensibles" los datos biométricos y los datos genéticos porque justamente son datos que no quisiéramos que exista esta posibilidad de extraer de manera compulsiva con la obligación. Digo, no podría hacerse un sistema como el que mencionó Juan, de tener que poner sí o sí la cara, y estuvieran contemplados como datos sensibles, porque uno podría negarse. Pero digo, esto no solamente por una defensa del ciudadano ante su propio Estado, si no ante justamente, el sector privado también, si ni siquiera en nuestra ley estamos protegidos diciendo que los datos biométricos son datos sensibles, estamos más expuestos a que cualquier empresa, a través de aplicaciones o a través de lo que sea, pueda recopilar de manera compulsiva esos datos. El tema del consentimiento es medio relativo porque hoy un consentimiento es darle "ok" a aceptar una aplicación. Primero, una buena regulación que nos proteja, y después ni hablar, de que tiene que haber una buena autoridad de aplicación y de control de esa ley que, lamentablemente, tanto acá como en otro países suele ser un poco difícil cómo se lleva adelante eso. Pero bueno, fortaleciendo esas dos cosas uno podría mejorar la regulación.
Moderadora: Vamos a ir un poco al tema de las tecnologías de la vigilancia que es lo que veníamos hablando, ya lo veníamos desarrollando. Como bien decíamos al principio se han incrementado en estos últimos años el tema de las aplicaciones acá en Argentina, para cuestiones de ingresar a un lugar: AFIP, por ejemplo, o de Aeropuerto. En algunos países del mundo también ha ocurrido que las han desautorizado, las han sacado de circulación, fue como bastante conocido el caso de la Ciudad de San Francisco, este último tiempo. ¿Cuáles creen que son o cómo imaginan este contexto o los fines de estas tecnologías de la vigilancia? Siempre que podamos tener alguna opinión o algún debate quizás es una cuestión que está todavía muy abierta y desarrollándose pero bueno, quizás las experiencias de estos últimos tiempos. En Hong Kong han ocurrido también cosas medio dramáticas pero bueno, ¿cómo lo ven el escenario ustedes? Juan, no sé si querés arrancar.
Juan: Sí, hay cuestiones de derechos que probablemente Carolina tenga...
Moderadora: Se tiran la pelota (risas)
Juan: Pero no, yo quiero hablar de la efectividad y de la proporcionalidad. Muchas veces la excusa, por ejemplo, para poner sistemas de reconocimiento facial es capturar delincuentes con pedido de captura. Pero la mayor parte de la gente que pasa en frente de esas cámaras no tiene pedido de captura. Entonces por más que vos tengas una tasa de identificaciones fallidas muy baja, vas a tener mucha más gente que le dé que tiene pedido de captura que no lo tiene, que gente que efectivamente tenía pedido de captura. Es decir, se llama falso positivo eso. Si pasa mil veces más personas que no tienen que personas que sí lo tienen, vas a tener un montón de gente erróneamente identificada. Es una cuestión de que no se justifica: no se justifica además por la invasión a la privacidad y por un montón de otras cosas y aparte porque no es efectivo.
Moderadora: Comentábamos previamente que hay algunos libros “Los dueños de Internet “de Natalia Zuazo, que decía que muchas estadísticas -no sé si tuvieron la oportunidad de leer o conocen a la autora- de que decía que muchas estadísticas hoy demuestran que, a pesar de que están con mucha publicidad y mucha propaganda el tema de instalar las cámaras por cuestiones de seguridad, los datos después comprueban que en realidad no hay una eficacia en estos datos o en el éxito de estas medidas.
Juan: Es que finalmente, si no quieres que sea un escándalo atrás de otro, lo que tenés que hacer es pedirle a la máquina que esté muy segura que la persona que esté ahí es efectivamente la que estás buscando. Entonces lo que pasa es que muchas veces se te van a escapar igual y lo mismo vas a tener muchos falsos positivos, por la diferencia en la cantidad de gente de una clase y de la otra que pasa por enfrente.
Carolina: Sí, en el caso de la poca efectividad ya se ha demostrado también que muchas veces lo que sucede es que las cámaras se instalan en determinados sectores y lo que se hace es migrar al delito hacia lugares donde no hay cámara. No es que disminuye el delito en todo caso sino que, cuando ya sabes que hay una zona que está permanente monitoreada, robás en otro lado, no lo haces ahí. Por otro lado, cuando uno va siguiendo determinados casos policiales donde demuestran con las cámaras lo que pasó, siempre se utiliza el argumento de que la cámara o el reconocer por la cámara, lo que hace es prevenir el delito, nunca lo previene. A lo sumo lo ves después de que ya sucedió. Y en todo caso, si es una persona, por eso está el tema del reconocimiento, bueno, si lo vemos en la cámara ya cometió el delito, entonces lo podemos identificar porque la cámara pudo registrar su rostro y lo comparó con una base de datos y puedo buscarlo, detenerlo, porque tengo su domicilio. Siempre un poco lo que termina pasando es que nos enteramos que somos todos bastantes parecidos, porque hay determinados rasgos que debemos tener muy parecidos. Como cuando uno te dice vi una persona que es igual a vos, me la crucé en el subte, bueno imagínate que eso le pase a la cámara y que le mande un alerta. Entonces te detienen y te tienen demorado, y no te tienen demorado un par de horas, te tienen preso 6 días porque todavía no pudimos comprobar si efectivamente el sistema te dijo que vos eras eso o no, en realidad, se equivocó. Y lo último es que no lograste detener al que tenías que detener. Pero a esa persona le violaste un montón de derechos como ciudadano. Por eso, hablaba de la presunción de inocencia: es una persona que no cometió ningún delito, no tiene antecedentes y esta frase que siempre se usaba de “por portación de cara” nunca pudo haber sido más literal que ahora, porque si tenés determinados rasgos a otro que se cruzan en una base de datos, por eso es literal la portación de cara. Pero además hay otro tema que es importante decirlo, el problema o la falla central no está en que el sistema se equivoque porque bueno en la base de datos, algunos son parecidos entre sí, sino se está evidenciando lo mal que funciona el sistema. Desde las comisarías de cómo operan los policías en la calle con la detención, cómo opera la justicia. Se está mostrando cómo funciona, porque esto no es que pasa sólo porque ahora pusieron cámaras y el reconocimiento facial, la detención arbitraria de una persona porque, quizás es muy discriminatoria la forma de decirlo, pero una persona que está corriendo y vos lo ves más o menos con una pinta medio zaparrastrosa, y quizás un policía sin el sistema de reconocimiento facial también lo detenía porque le pareció sospechosa esa persona corriendo y quizás se le estaba yendo el tren. A eso voy: ahí quizás la portación de cara operaba de otra forma, pero ahora está muy evidenciado lo mal que funciona todo el sistema detrás, porque una persona detenida solo porque apareció en el sistema entonces creemos en la deidad de la tecnología que nos dice que ésta es la persona que cometió el delito.
Moderadora: Gran hermano, Juan...
Juan: Después hay temas de seguridad y gobernanza en estas aplicaciones. Es decir, yo tengo una base de datos de personas buscadas y tiene nombres, expedientes y una foto. Si alguien puede ir y tocar una foto suceden dos cosas: primero la persona a la que están buscando no la van a encontrar porque tiene otra cara que la de la foto. El otro es que le vas a joder vida a alguien que no tiene nada que ver que es el dueño de la cara. No les sabría decir si no pasó ya, creo que a alguien lo detuvieron por el sistema de reconocimiento facial y figuraba la cara de él pero era otra persona. Era de acá pero no era el nombre, era otra persona que por algún inconveniente se había puesto su foto en el sistema, lo que hace que el sistema tenga muy pocas garantías. Hay que establecer mecanismos de seguridad para que nadie pueda tocar la base de datos en donde están todos estos datos y de gobernanza para otra vez, lo mismo, pero ya a nivel funcionamiento del sistema.
Moderadora: Bien, como para cerrar un poco este encuentro y hacer una reflexión final y algunas conclusiones, no solo las cuestiones que nosotros pensábamos cuando compartíamos el tema con el equipo, todas estas plataformas, todas estas huellas digitales que vamos dejando en nuestros usos en la web, en las aplicaciones, en los celulares van conformando nuestra identidad digital que tiene que ver con los gustos los preferencias, los intereses, las zonas que recorremos. ¿Cómo ustedes ven o que conclusión o reflexión pueden hacer en relación a esta identidad digital que vamos conformando a medida que vamos dejando nuestras huellas en estas aplicaciones?
Carolina: Yo algo muy cortito, creo que lo que uno hizo como usuario hasta este momento ya está hecho, por ende no hay manera de volver para atrás y borrar cosas o eliminarlas, pero si uno toma conciencia de esto y realmente tiene un interés por evitar seguir alimentando esa identidad digital con datos que uno no quiere que se tengan, bueno, es a partir de este momento en adelante tomar decisión de qué contenidos publicar, qué aplicaciones descargar. Si me interesa mucho más la efectividad que tiene Google Maps en ayudarme a llegar al destino que si saben dónde estoy, bueno, seguirás usando Google Maps con la conciencia que esos datos están ahí. Pero si vos preferís tener también la privacidad de tus movimientos bueno hay determinadas cosas sobre las que podés operar y otras que no. El GPS lo podes tener apagado, podes tener todas aplicaciones de mapeo sin descargarlas en tu teléfono, pero mientras tengas un teléfono encendido y se conecte a una antena te pueden rastrear. Es tomar conciencia y decidir, ahora lo que pasó hasta acá ya está.
Moderadora: Juan...
Juan: Como decía hace un rato, hemos intercambiado un montón de derecho a la privacidad, un montón de privacidad por comodidad y es muy difícil abstraerse porque además de comodidad es, por ejemplo, las relaciones humanas con otras personas que han cometido el mismo error.
Moderadora: Bueno, gracias a los dos por haber participado de “Voces en red”, este podcast. Seguramente vamos a seguir aprendiendo y seguiremos trayendo nuevos temas de conversación y de debate para que podamos discutir, involucrar y aprender, que creo que es lo importante de esto, ¿no? Aprender de las cosas que están pasando y acercar estas temáticas a gran parte de la población.
Carolina: Gracias a ustedes y la verdad felicitaciones por la iniciativa porque creo que es un gran aporte.
Juan: Gracias por invitarme.
Te invitamos a escuchar el primer episodio de “Voces en red” un espacio donde se reúnen referentes del ecosistema de Internet para conversar sobre temas de actualidad sobre la temática.
La tecnología nos atraviesa de diferentes maneras. Hablar de mundo digital y analógico queda cada vez más obsoleto. Los contenidos se viralizan en cuestiones de segundos, surgen regulaciones, y nuevas tendencias en tecnología de manera constante. Estos son temas de agenda en medios tradicionales y digitales. Pero ¿qué esconden detrás todos ellos? Debates sobre Gobernanza de Internet, es decir, los principios, normas, procedimientos que definen cómo puede y debe evolucionar la red.
Voces en red apunta a develar todos estos debates que subyacen a las prácticas y usos más triviales que hacemos de la tecnología y de Internet. La propuesta es acercarte a las discusiones actuales sobre los usos y prácticas en torno a la red.
El primer episodio, que ya se encuentra disponible, trata el tema de Reconocimiento Facial y en esta oportunidad, contamos con la voz de Carolina Martínez Elebi de Fundación Vía Libre y Juan Martín Heguiabehere de Fundación Sadosky. Charlamos y analizamos el impacto, las consecuencias, los pros y contras de las apps que en principio pretenden “entretener” pero que de fondo poseen otros fines. ¡Te invitamos a escucharlo!
Podés escuchar los contenidos en nuestro canal de Spotify o en tu plataforma de podcast preferida.